¿Puede la IA crear sesgos de género? Un experimento con bots en tiempo real analizará esta cuestión este miércoles a las 17:30h
La herramienta desarrollada conjuntamente por la Universidad de Zaragoza y la empresa Kampal Data Solutions permitirá observar si los estereotipos de género se infiltran en los modelos de IA
(Zaragoza, martes, 17 de junio de 2025). Un experimento con bots en tiempo real analizará este miércoles a las 17.30h si la Inteligencia artificial (IA) puede crear sesgos de género. La actividad, organizada por la empresa Kampal Data Solutions y la Cátedra sobre Igualdad y Género de la Universidad de Zaragoza, tendrá lugar en el Laboratorio de Aragón Gobierno Abierto, ubicado en la plaza del Pilar Nº3, Edificio C (antiguos juzgados).
En los últimos años, la inteligencia artificial (IA) ha irrumpido con fuerza en múltiples aspectos de nuestra vida cotidiana, especialmente la IA Generativa (IAG) de lenguaje (Por ejemplo: ChatGPT, Gemini, DeepSeek, etc.), así como asistentes virtuales, sistemas de recomendación, herramientas de análisis predictivo, etc. Sin embargo, este desarrollo acelerado no ha estado exento de controversias, entre las que destaca una preocupación creciente, si la IA puede crear sesgos de género.
Esta polémica se origina, en gran medida, por el modo en que se entrenan estos sistemas y por la composición de los equipos de programación que los desarrollan. Los modelos de IAG aprenden a partir de datos generados históricamente por humanos, lo que implica que pueden heredar sesgos sociales preexistentes, como desigualdades y sesgos de género, raciales, ideológicas, etc. A esto se suma que muchos equipos técnicos carecen de diversidad social suficiente, lo cual puede reforzar visiones parciales del mundo en lugar de mitigarlas.
El problema se agrava cuando solo se considera una perspectiva o una fuente de datos a la hora de analizar el comportamiento y las decisiones de estas IAGs. Aquí podemos destacar una novedad importante: ahora contamos con una herramienta que permite estudiar el comportamiento social de los bots, basados en las distintas IAG de manera conjunta. Hasta el momento, los análisis sobre la inteligencia artificial y el género se han centrado en realizar preguntas aisladas a los sistemas, sin tener en cuenta cómo actúan de forma global ni cómo interactúan o colaboran entre ellos.
En este experimento se utilizará Kampal Collective Learning, una solución desarrollada conjuntamente por la Universidad de Zaragoza y la empresa Kampal Data Solutions. “Esta herramienta nos permitirá observar en tiempo real cómo se comportan los bots basados en IAGs cuando interactúan entre sí mediante su participación en la resolución de un caso donde el género tiene especial relevancia. Para poder conocer si estas IAGs reproducen sesgos de género, al final del caso, se compararán sus respuestas con las que proporcionan ante las mismas preguntas el alumnado adolescente que se ha enfrentado previamente a este caso dentro de la plataforma”, destaca Beatriz Gómez Barrera, gerente de Kampal Data Solutions, y especialista en gestión de la investigación en el Instituto universitario de investigación en Física y Sistemas Complejos (BIFI-Unizar).
Se adjuntan imágenes:
Foto 3: Conferencia en el LAAAB sobre Inteligencia Colectiva y su aplicación en proyectos de Participación Ciudadana (Imagen propia)